Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Apriamo la puntata parlando delle ultime svolte in maniera di Intelligenza Artificiale, in particolare facendo il quadro dell'ingresso delle industrie cinese nel mercato dei Large Language Models e provando a discutere dei risultati del CHIPS Act: è servito, o i recenti sviluppi mostrano che era ormai troppo tardi?

Ci spostiamo poi al mondo dei social media, segnalando la decisione di ValigiaBlu di uscire, oltre che da X, anche dalle piattaforme di Meta. Evidentemente il video di Zuckerberg che si inchina a Trump ha segnato un precedente, per quanto ci sembra che le principali criticità fossero già insite.

Nuovo caso di Malware sviluppato da aziende israeliane, e diffuso tramite Whatsapp. Molte le persone coinvolte, in decine di paesi, tra cui l'Italia. L'unico nome che conosciamo è proprio quello di un giornalista italiano, Francesco Cancellato, direttore di Fanpage.it.

Notiziole varie: dall'impatto delle sanzioni sul software libero, a come battere il boss finale della Nintendo, passando per l'utilizzo dell'Intelligenza Artificiale nelle indagini.

Ascolta la puntata sul sito di Radio Onda Rossa

Il capo di OpenAI ha annunciato a inizio anno che il suo nuovo modello di intelligenza artificiale avrebbe ottenuto risultati simili a quelli umani in una sorta di test del quoziente intellettivo. Un esito ottenuto però facendo allenare la macchina sulle stesse domande e in modo poco trasparente, con costi ecologici ed economici fuori scala. È ora di disertare questa agenda, fatta di macchine mangia-soldi e mangia-risorse.

Il 2025 si apre con fuochi d’artificio superiori a quelli a cui ci eravamo abituati sul fronte della propaganda attorno all’intelligenza artificiale (Ai).

Il nuovo modello prodotto da OpenAI avrebbe infatti raggiunto risultati comparabili con gli esseri umani nel risolvere il test ARC-AGI. Il video qui sopra contiene un esempio delle domande contenute in tale test, che ricorda molto da vicino i test del quoziente intellettivo (Qi) utilizzati in psicologia per “misurare l’intelligenza” degli esseri umani. Sorvoleremo in questa sede su due fatti chiave che richiederebbero invece una seria analisi: non esiste un consenso scientifico su che cosa sia l’intelligenza umana e animale, ossia una definizione condivisa e, anche fingendo di aver raggiunto un consenso, misurarla resterebbe tutta un’altra faccenda. Dal punto di vista “teorico” ci limiteremo a richiamare l’etimologia: “inter” più “ligere”, “leggere tra (le cose)”, leggere in profondità.

Sam Altman (più in generale l’intero comparto dell’Ai) ci ha abituato a trucchi degni degli artisti della truffa che giravano il suo Paese a inizi Ottocento, usati a supporto di affermazioni-bomba come quella appena citata (e immediatamente seguita da affermazioni ancora più esplosive sulla “Superintelligenza”). Ricordiamo, a titolo d’esempio non esaustivo, la figuraccia di Google alla presentazione del suo Gemini, quando i suoi padroni raccontarono che il modello in questione sapeva riconoscere il gioco della morra cinese al primo colpo (zero-shot), mentre -guardando il video completo- si scopriva che la verità era molto diversa (e i dettagli, in questo campo, sono molto importanti).

Leggi l'articolo di Stefano Borroni Barale

Con l'autrice Cristina Iurissevich presentiamo "E se i troll mangiassero i cookie?" (Eris) un libro per sopravvivere nell'era digitale. Con lei ragioniamo del senso dell'autodifesa digitale con un occhio, oltre che alla sorveglianza statale e aziendale, alle relazioni con le persone a noi vicine. Parliamo quindi di sexting, di diffusione non consensuale di immagini intime, di nudifier, di fiducia nelle persone e nelle tecnologie.

Concludiamo un commento sulle recenti rivelazioni che mostrano un ruolo dello stato francese nella trasformazione dell'AI Act in una direzione che desse sempre più potere alle polizie e ai militari.

Ascolta l'intervista

Ascolta tutta la trasmissione sul sito di Radio Onda Rossa

Vai alla scheda del libro

Lunedì 3 febbraio alle ore 15.00 presso la sede Cobas di Terni, via Cesi 15/a, presentazione di “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” di Stefano Borroni Barale. Ne parlano l'autore e Franco Coppoli.

Intelligenza artificiale (Ai) è un termine che raggruppa tecnologie molto diverse tra loro, con una lunga storia. I tifosi dell’Ai sostengono che questa tecnologia abbia il potenziale di risolvere alcuni dei problemi più urgenti del mondo, come il cambiamento climatico, la povertà e le malattie. I critici, invece, sostengono che questa tecnologia sia pericolosa e ingannevole.

Ma perché tutti parlano di Ai? Perché è un’eccezionale operazione di marketing: una delle meglio organizzate degli ultimi anni. Su questa le imprese della Silicon Valley si stanno giocando il tutto per tutto, per invertire il trend negativo fatto di tagli al personale e cambi drastici dei loro programmi di sviluppo. Per comprendere quali siano le aspettative di queste aziende – e quali dovrebbero essere le nostre – in questo libro si ricostruiscono le tappe, le intuizioni e i paradossi che hanno attraversato la comunità scientifica, provando a tracciare una linea che collega Alan Turing, primo sostenitore dell’Ai forte, con i creatori di ChatGPT, il software in grado di sostenere un dialogo credibile con un essere umano.

L’incontro sarà fruibile anche online usando il software Jitsi a questo link https://meet.jit.si/altercobas

Guarda la scheda del libro

Impazza DeepSeek, nuova AI cinese: per gli Usa un nuovo "momento Sputnik. Made in China 2025: per il progetto voluto da Xi è tempo di bilanci. E buon anno del serpente :)

Allora: la nuova versione è uscita poco dopo Natale, pare sia all’altezza di OpenAI e affini, è realizzata con solo una parte dei chip (ad esempio quelli Nvidia) bloccati dagli Usa verso la Cina. E fa parlare di sé come la prima forma di AI che riporta in qualche modo all’AGI (Artificial General Intelligence) specie la release R1. Insomma in ogni caso un po’ tutti hanno detto la stessa cosa: DeepSeek ha colmato un divario. E per gli Usa è arrivato un altro “momento Sputnik”, quello nel quale ci si rende conto che un competitor è più avanti (come capitò nel caso dello Sputnik sovietico, appunto, o come capitò alla Cina dopo la vittoria delle AI di Google contro il campione del mondo di go, allora si parlò di momento Sputnik, ma per la Cina)

Ora, ci sono molti tecnicismi al riguardo ma non solo perché DeepSeek ha segnato l’inizio di una nuova era nell’AI cinese, quella del risparmio: “DeepSeek è stato rapidamente soprannominato il "Pinduoduo dell'IA" e altri grandi giganti della tecnologia come ByteDance, Tencent, Baidu e Alibaba non hanno potuto trattenersi, tagliando i prezzi uno dopo l'altro. Una guerra dei prezzi per i modelli di grandi dimensioni in Cina era imminente”. E a differenze di aziende di stato “che bruciano soldi, in sussidi, DeepSeek è redditizia”.

Vediamo intanto di cosa stiamo parlando. DeepSeek è un'azienda cinese di intelligenza artificiale che sviluppa modelli linguistici di grandi dimensioni open-source. L'azienda è finanziata esclusivamente dal fondo speculativo cinese High-Flyer. Sia DeepSeek che High-Flyer hanno sede a Hangzhou, Zhejiang. DeepSeek è stata fondata nel maggio 2023 da Liang Wenfeng, un ex studente dell'Università di Zhejiang che ha iniziato a fare trading durante la crisi finanziaria del 2007-2008.

Leggi tutto

L’11 settembre 1973 viene rovesciato il governo di Salvador Allende. L’episodio segna storicamente l’ascesa del neoliberismo. Insieme al colpo di stato politico, però, ve ne è stato un altro che ha segnato la storia dell’informatica e che ha portato all’attuale sviluppo dell’Intelligenza Artificiale secondo una direzione determinata da un preciso apparato politico-economico-militare-culturale. Ne parliamo con il professore Andrea Cerroni, docente all’Università Bicocca di Milano, che, da sempre, approfondisce questi e altri temi e che ci ha spiegato la correlazione tra Salvador Allende e l’informatica.

Storicizzare, criticizzare, conoscere sono, oggi, le armi fondamentali per scalfire la retorica che avvolge sia il neoliberismo sia la tecnologia digitale e decostruire la loro capacità di imporsi “ontologicamente”, come necessità e dato di fatto incontrovertibile, inibendo la possibilità di immaginare altro: altre strade, altre soluzioni, altri digitali, altre società.

Abbiamo incontrato il professore Andrea Cerroni, docente all’Università Bicocca di Milano, che, da sempre, approfondisce questi e altri temi e ci ha spiegato la correlazione tra Salvador Allende e l’informatica. Che cosa lega IA e neoliberismo; per quale motivo è stato modificato il titolo di uno dei testi più importanti della cibernetica cancellando l’originale “uso umano degli esseri umani”; come è possibile ipotizzare una “tecnologia umanistica”, che da Dante arriva ad Adriano Olivetti (che ha inventato il primo PC della storia). Cerroni ci fa anche una raccomandazione: chiamiamola “Artificial Intelligence, perché nella traduzione italiana si perde il collegamento con i Servizi (segreti o meno)”.

Leggi l'intervista

Il 2024 delle intelligenze artificiali si è concluso con molti annunci e rilasci di nuovi strumenti da parte delle principali aziende impegnate nello sviluppo di queste tecnologie. Come da manuale delle trovate di marketing di Sam Altman, la OpenAi si è riservata il finale a effetto. L’azienda, che aveva addirittura organizzato un calendario dell’avvento per svelare una alla volta le proprie novità, ha anticipato o3, il suo nuovo modello.

o3 non è ancora disponibile al pubblico: solo chi fa ricerca nell’ambito della sicurezza dei sistemi di ia può ottenere un accesso anticipato.

Sappiamo poco di o3. Da quel che si può leggere online, si basa ancora sull’architettura degli altri modelli della OpenAi. Quel che lo rende interessante, però, è il fatto che è stato valutato da un progetto che si chiama Arc prize. L’Arc prize è’un premio da un milione di dollari riservato a chiunque riesca a far risolvere ai modelli linguistici alcuni test chiamati Arc-agi che sono particolarmente ostici per le macchine.

Leggi l'articolo

Versione non integrale e privo dell’apparato delle note, di un articolo uscito sul numero 64 della rivista Le nuove frontiere della scuola.

Questo breve dialogo è la continuazione e la sintesi di un confronto molto fecondo, che dura ormai da tempo, sulle tematiche del digitale e su un’idea della tecnologia non asservita ai grandi interessi economici. L’intenzione è quella di liberare la riflessione attorno alle nuove tecnologie, e all’Intelligenza artificiale in particolare, dal pensiero magico e dal tecnoentusiasmo del PNRR sulla scuola

Luca Malgioglio: Stefano, la lettura del tuo bellissimo libro sull’intelligenza artificiale mi ha aiutato a chiarire un paio di questioni che mi piacerebbe approfondire ulteriormente insieme a te. La prima la porrei così: l’intelligenza artificiale, come molte altre cose, ci viene presentata come un prodotto senza storia, un dato di fatto tecnologico di fronte al quale l’unico approccio possibile sarebbe quello di capire come utilizzarlo...

leggi l'articolo

L’introduzione dell’intelligenza artificiale in medicina dovrebbe essere valutata caso per caso, e con grande attenzione. È una tecnologia tutt’altro che neutra, soggetta al problema delle “allucinazioni” e non sempre rispettosa dei protocolli tipici della ricerca scientifica. Errori metodologici pericolosi che un certo marketing asfissiante vuole cancellare. L’analisi di Stefano Borroni Barale

“Cosa succede quando abbiamo messo la decisione [sulla vita o morte di un paziente, ndr] nelle mani di un’inesorabile macchina a cui dobbiamo porre le giuste domande in anticipo, senza comprendere appieno le operazioni o il processo attraverso cui esse troveranno risposta?”. Norbert Wiener, “God and Golem, Inc.”, 1963.

Questa citazione ha aperto un recente congresso sull’uso dell’Intelligenza artificiale (Ai) in ambito sociosanitario durante il quale era intenzione di chi scrive provocare un dibattito per cercare di uscire dallo “spettro delle opinioni accettabili” (Noam Chomsky) e -al contempo- ampliare la comprensione del fenomeno, ripercorrendone la storia.

leggi l'articolo

Sta circolando un’accusa pesante che riguarda il popolarissimo software Word di Microsoft: userebbe i testi scritti dagli utenti per addestrare l’intelligenza artificiale dell’azienda. Se l’accusa fosse confermata, le implicazioni in termini di privacy, confidenzialità e diritto d’autore sarebbero estremamente serie.

Questa è la storia di quest’accusa, dei dati che fin qui la avvalorano, e di come eventualmente rimediare. Benvenuti alla puntata del 25 novembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica.

Le intelligenze artificiali hanno bisogno di dati sui quali addestrarsi. Tanti, tanti dati: più ne hanno, più diventano capaci di fornire risposte utili. Un’intelligenza artificiale che elabora testi, per esempio, deve acquisire non miliardi, ma migliaia di miliardi di parole per funzionare decentemente.

Procurarsi così tanto testo non è facile, e quindi le aziende che sviluppano intelligenze artificiali pescano dove possono: non solo libri digitalizzati ma anche pagine Web, articoli di Wikipedia, post sui social network. E ancora non basta. Secondo le indagini del New York Times, OpenAI, l’azienda che sviluppa ChatGPT, aveva già esaurito nel 2021 ogni fonte di testo in inglese pubblicamente disponibile su Internet.

Per sfamare l’appetito incontenibile della sua intelligenza artificiale, OpenAI ha creato uno strumento di riconoscimento vocale, chiamato Whisper, che trascriveva il parlato dei video di YouTube e quindi produceva nuovi testi sui quali continuare ad addestrare ChatGPT. Whisper ha trascritto oltre un milione di ore di video di YouTube, e dall’addestramento basato su quei testi è nato ChatGPT 4.

Leggi la storia o ascolta l'audio su Attivisimo.me

Puntata 5 di EM, prima del ciclo Estrattivismo dei dati, parliamo di IA nel costesto del consumo delle risorse e della guerra.

PRIMA PARTE - CONSUMO DI ENERGIA E DI RISORSE

  • Crescente domanda di energia dell'IT negli ultimi 20 anni, forte accelerazione causata dalla corsa all'intelligenza artificiale
  • L’espansione delle infrastrutture per AI, i data center, ha portato ad un aumento significativo delle emissioni di CO2
  • Impatto di tale aumento, della domanda insaziabile di energia, sugli obiettivi climatici. A partire dalle grandi aziende tecnologiche che oltre a causarlo, si trovano nella condizione di dover ridurre le emissioni (Google e Microsoft: target di e+missioni nette zero entro il 2030 – capire quanto sia vincolante, quanto siano trasparenti le verifiche…)
  • I data center, essenziali per l’addestramento e l’operatività dei modelli AI, consumano enormi quantità di energia, generando emissioni e richiedendo grandi quantità d'acqua. Con costi ambientali difficili da quantificare completamente. Vediamo qualche numero:
  • Una recente ricerca dell'Università della California di Riverside. Premessa: ogni richiesta su un LLM come ChatGpt passa attraverso uno dei milioni di server di cui l’azienda OpenAI dispone, e questo server esegue migliaia di calcoli per determinare le parole migliori da usare nella risposta, consumando energia e generando calore, calore che poi deve essere smaltito usando altra energia nei sistemi di raffreddamento

Leggi tutto e ascolta l'audio della trasmissione sul sito di Radio Onda Rossa

Questa non è la storia della solita gara fra guardie e ladri in fatto di sicurezza; non è una vicenda di casseforti virtuali più robuste da contrapporre a grimaldelli sempre più sottili e penetranti. È la storia di come l’intelligenza artificiale obbliga tutti, utenti, studiosi e malviventi, a pensare come una macchina, in modo non intuitivo, e di come questo modo di pensare stia portando alla scoperta di vulnerabilità e di forme di attacco incredibilmente originali e impreviste e alla dimostrazione di strani virtuosismi di fantasia informatica, che conviene a tutti conoscere per non farsi imbrogliare. Perché per esempio una semplice immagine o un link che ai nostri occhi sembrano innocui, agli occhi virtuali di un’intelligenza artificiale possono rivelarsi bocconi fatalmente avvelenati.

[...]

La nuova tendenza in informatica, non solo da parte di Microsoft, è spingerci a installare sui nostri computer un assistente automatico che ha pieno accesso a tutte le nostre mail e ai nostri file ed esegue ciecamente qualunque comando datogli dal primo che passa. Cosa mai potrebbe andare storto?

Benvenuti alla puntata del 4 novembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

Ascolta l'audio della puntata

Un articolo scientifico di daniela tafani, prezioso, ricco di spunti di riflessioni e di verità tanto evidenti quanto nascoste.

Il testo demistifica le "credenze" relative alla presunta intelligenza dei software probabilistici e ristabilisce dei punti fermi sulla non neutralità del software, anche quando si tratta di cosidetta Intelligenza Artificiale.

L'articolo dimostra perché l'introduzione dell'intelligenza artificiale nella scuola e nelle univeristà sia un problema per i processi di apprendimento e insegnamento. Tuttavia si tratta di una tendenza già presente: la trasformazione dell'insegnamento in addestramento degli studenti per andare incontro alle esigenze del mondo aziendale.

Indice

  1. Macchine per scrivere frasi probabili
  2. La bolla dell’“intelligenza artificiale generativa”
  3. Il valore dell’istruzione: le aziende e le narrazioni Edtech
    3.a. L’idea che la sorveglianza sia una forma di cura
    3.b. Il mito della personalizzazione dell’apprendimento
    3.c. Il soluzionismo tecnologico
    3.d. L’idea della neutralità delle piattaforme “educative”
  4. Girelli, stampelle e ciuchini: gli omini di burro nei sistemi neoliberali
    Nota bibliografica

Leggi l'articolo

L’Intelligenza artificiale (Ai) è un tema oggi talmente di moda che persino il papa ha ritenuto indispensabile dire la sua sull’argomento. Un utile strumento per orientarsi in questo profluvio di notizie, in genere sensazionalistiche e spesso fuorvianti, è fornito dal libro recentemente pubblicato di Stefano Borroni Barale, “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificale”, Altreconomia, 2023. Un agile saggio divulgativo alla portata anche del lettore meno esperto.

Il titolo “L’intelligenza inesistente” rimanda esplicitamente ad Agilulfo il “cavaliere inesistente” creato da Italo Calvino, un paladino che pur “non esistendo” riesce comunque a combattere valorosamente al servizio di Carlomagno (“Bé, per essere uno che non esiste, siete in gamba !” sbotta a un certo punto l’imperatore).

Più precisamente per l’autore – a differenza di quanto sostengono i millantatori – non esiste oggi (né è alle viste) una Ai “forte” in grado di pensare come un essere umano ma solo un’Ai “debole” in grado di “simulare” alcuni aspetti del pensiero umano. Una Ai che funziona solo grazie al lavoro costante di un vasto proletariato digitale, invisibile e malpagato (i cosiddetti “turchi meccanici” o “turker”).

Leggi l'intervista sul sito di “Collegamenti”

L’intelligenza artificiale causa carenza di energia elettrica: verrà riattivato la centrale in cui si verificò il più grande incidente nucleare della storia degli Stati Uniti.

Three Mile Island, Chernobyl e Fukushima sono stati teatro di disastri nucleari a lungo ricordati, specialmente in gran parte dell’Europa, dove il tema dell’energia nucleare è stato molto discusso. Ancora oggi il problema delle centrali nucleari è oggetto di dibattito, nonostante la tecnologia nucleare odierna abbia fatto molti progressi rispetto al passato, in presenza di un’economia guidata dal consumo elettrico sempre maggiore, in particolar modo a causa della crescita dell’Intelligenza artificiale (IA), il cui uso sta guidando la domanda di elettricità.

Tuttavia, diversa è la linea adottata da altri paesi nel mondo. Se i tedeschi hanno chiuso le loro centrali nucleari e la Svizzera ne sta mettendo in discussione la chiusura, in Asia è attualmente in corso una vera e propria rinascita del nucleare. Infatti, negli ultimi anni la produzione di energia elettrica derivante dal nucleare nel continente asiatico è aumentata notevolmente e gli americani stanno attualmente rivalutando la questione con un approccio più pragmatico. Nei giorni scorsi, la società energetica Constellation Energy e il gruppo tecnologico Microsoft hanno annunciato che riattiveranno insieme l’unità I della centrale nucleare di Three Mile Island, vicino a Harrisburg, in Pennsylvania.

Leggi l'articolo di Christof Leisinger (per la rivista online INFOsperber)

Google ha siglato un accordo con Kairos Power per l'utilizzo di piccoli reattori nucleari per generare la quantità di energia necessaria ad alimentare i suoi data center per lo sviluppo dell'intelligenza artificiale (AI). L'azienda ha dichiarato che l'accordo prevede l'avvio dell'utilizzo del primo reattore nel corso di questo decennio e la messa in funzione di altri entro il 2035. Le società non hanno fornito alcun dettaglio sull'importo dell'accordo o su dove saranno costruiti gli impianti.

Ma Google a quanto pare non è l'unica, lo scorso mese Microsoft ha raggiunto un accordo per rimmettere in funzione l'impianto nucleare di Three Mile Island, tristemente noto per il più grave incidente nucleare accaduto negli USA nel 1979.

Leggi l'articolo

Nel suo rapporto Draghi dice che non possiamo avere una forte tutela dei diritti fondamentali e allo stesso tempo aspettarci di promuovere l’innovazione. La critica è rivolta in particolare al GDPR, che protegge i nostri dati personali. Ma è una critica senza fondamento.

Tra le cause della scarsa competitività delle imprese europee nei settori avanzati dell’informatica, oggi chiamata “intelligenza artificiale”, il rapporto Draghi individua la regolamentazione dell’Unione Europea sull’uso dei dati1. Considerata troppo complessa e onerosa rispetto ai sistemi in vigore nei principali paesi leader, come USA e Cina, tale regolamentazione penalizzerebbe i ricercatori e gli innovatori europei impegnati nella competizione globale.

[...]

Il senso è chiaro: non possiamo avere una forte tutela dei diritti fondamentali e allo stesso tempo aspettarci di promuovere l’innovazione. Il trade-off è inevitabile, e prepariamoci ad affrontarlo.

Ma quali sarebbero gli ostacoli che questa “strong ex ante regulatory safeguard” pone all’innovazione e alla competitività delle imprese europee? Il rapporto Draghi ne individua tre: i) il GDPR impone oneri alle imprese europee impegnate nei settori di punta dell’intelligenza artificiale che le penalizzano rispetto ai concorrenti USA e cinesi; ii) l’applicazione frammentaria e incoerente del GDPR crea incertezza sull’uso legittimo dei dati e iii) questa incertezza impedisce, in modo particolare, l’uso efficiente dei dati sanitari per lo sviluppo di strumenti di intelligenza artificiale nel settore medico e farmaceutico.

Verifichiamo se gli argomenti a sostegno di queste tesi possono reggere a un’analisi un po’ approfondita.

Leggi l'articolo di Maurizio Borghi

La prima parte della trasmissione è dedicata al secondo tentativo di Microsoft di lanciare un sistema di ricerca all'interno di Windows basato su intelligenza artificiale. Se il primo tentativo era stato un disastro di sicurezza, cosa possiamo dire del secondo? Indubbiamente il nuovo design sembra più solido; ma come leggere complessivamente questo progetto di accumulazione di grossi dataset in locale e di spostamento del carico computazionale sull'hardware utente?

La seconda parte della trasmissione è invece legata ad NSO e alle cause che ha con Apple e Whatsapp (avete letto bene). Benché per entrambe le aziende è chiaro che si tratti di processi il cui fine ultimo è il miglioramento della propria reputazione, rileviamo come entrambi i processi siano molto appesantiti dall'ostruzionismo e dalla copertura di Israele.

Ascolta l'audio sul sito di Radio Onda Rossa

Il 176° Mercoledì di Nexa si terrà mercoledì 9 ottobre, alle ore 17.30, con un incontro dal titolo "An anti-fascist approach to AI means decomputing".

Ospite: Dan McQuillan (Goldsmiths, University of London), autore del libro Resisting AI. An Anti-fascist Approach to Artificial Intelligence.

Tutte le informazioni per partecipare sono sul sito del Centro Nexa for Internet Societty

Leggi una recensione del libro

"AI’s apparatus of computation and social relations produces a nested set of inevitable harms, from states of exception to environmental degradation. A common thread running through its mathematical operations, its c2ontemporary applications and its accompanying ideologies is the reemergence of eugenics and authoritarian social logics.

In this talk I will argue for an anti-fascist approach to AI that aims for alternative technopolitical outcomes. I will suggest a strategy of decomputing which combines degrowth and decolonialism in order to delegitimise AI’s extractivism and its use as a diversion from the structural failures of the status quo. In practice, this would consist of forms of action that reject hyperscale machinery hurtful to the commonality, and instead attempt to transform collective subjectivities and technical arrangements at the same time."

Una nuova ricerca segnala l'eccessivo consumo di acqua ed elettricità nei data center delle aziende proprietarie

Una bottiglia d'acqua per ogni email di 100 parole scritta da ChatGpt: questo il prezzo che deve pagare l'ambiente per il funzionamento corretto dei chatbot AI. A rivelarlo è un nuovo studio condotto dal Washington Post in collaborazione con i ricercatori dell'Università della California di Riverside, che hanno analizzato la quantità di risorse naturali che servono a ChatGpt per espletare le sue funzioni più elementari. “Ogni richiesta su ChatGpt passa attraverso un server che esegue migliaia di calcoli per determinare le parole migliori da usare nella risposta”, scrive il WP precisando che i server generano calore per eseguire i calcoli necessari.

Leggi l'articolo